这下,AI 色图彻底炸了
“
大家注意:因为微信最近又改了推送机制,经常有小伙伴说错过了之前被删的文章,比如前阵子冒着风险写的全指南,再比如一些限时福利,错过了就是错过了。
所以建议大家加个星标,就能第一时间收到推送。👇
前两周 AI 领域的当红辣子鸡,毫无疑问是 ChatGPT,但在 ChatGPT 一波又一波刷屏的背后,你可能错过了一场今年典中典的 AI 诈骗案。
是的,AI 还没来得及改变普通人的生活,却已经改变了割韭菜的生财姿势。。。
这事相当具有戏剧性,起初,网上流传了一场 Party 的宣传海报,四个大字,「女仆之夜」。
这种活动本来没啥惊奇的,哪怕 3000 元/位的入场费,也不能让活动本身更出彩,除非,它不正经。
没错,女仆之夜的活动,哪能没有女仆呢,这个 Part 最大的亮点,在于为每一位参与者,都配备有随身陪玩女仆一名。
更附带了 43 张女仆小姐姐的「照片」:
大家不用猜了游艇女仆趴的大结局了,因为活动本身就是一场闹剧,这 43 张照片全部都是 AI 绘画赋能的产物。
好家伙,过去诈骗是 P 图变脸,现在诈骗直接无中生有,比九转大肠绕绕还多,但我对 AI 绘画的印象还停留在去年的二次元涩涩上,现在怎么都进军真人了?
本着认真负责的态度,我决定一探现在 AI 绘图的究竟,这两天在我看了大量 AI 涩绘图的基础上,终于顺藤摸瓜理清了这次 AI 绘图大变样的节点。
虽然还没跑起来,但我想着独乐乐不如众乐乐,先给大家复盘一下 AI 绘画是怎么开始画照片的。
PS:多图预警,请在 WIFI 下观看。
Chilloutmix
今年二月初,各大网络社区,包括不限于微博、贴吧、NGA、小红书、推特、油管,都开始出现真人风格,质量极高的 AI 绘制的作品。
其中最出圈的,大概是微博上 @勘云工造 大佬制作的赛博 Coser 系列,放几张这两天网上疯传,很多人估计都眼熟了的作品:
这个身材傲人,装扮精致的小姐姐图片,无论光影,还是面部细节,亦或衣服褶皱,都算得上真实,妥妥的美女 Coser。
但你品一品这作图风格,是不是和前面那个游艇女仆趴有点像?嘿,因为这些图啊,都是基于一个模型实现的,也就是 ChilloutMix。
至于为啥 AI 画照片都扎堆出现在了 2 月?无他,ChilloutMix 这个模型是 2 月初登录在了 AI 绘画模型分享社区 C 站(CivitAI)。
不到 1 个月的时间,这个模型就已经拥有了 11 万的下载量。
在 C 站里,有各种基于这个模型跑出来的「照片」。
偷偷说一句,如果你在 C 站搜这个模型,需要在设置里开启 adult 模式(成人模式),因为 Chilloutmix 除了正经出图,还能直接产出 NSFW 内容。
不过有一说一啊,Chilloutmix 模型并不是 AI 绘图从 0 到 1 的突破,而是基于多个开源的 Stable Diffusion 衍生模型实现的。
展开讲就全是模型介绍了,小白也能看懂的说法是,Chilloutmix 是一个集大成的写实风模型,用不同指令调用不同模型的专精方向,就能生成这么一张以假乱真的图片了。
等等,AI 绘图应该是风格相近,样子各异才对,Chilloutmix 当然也不例外,网上的大佬们是怎么让 AI 连续生成同一副面孔的套图呢?
一句话,微软的功劳。
LoRa
就像前面说的那样,AIGC 的背后是一个又一个被提前训练好的模型,这些模型决定了生成内容的整体走向。
但是,模型是成果也是桎梏,就像焊好的手机没办法单独只换个芯片,想让模型跑出不一样的风格,只有重新训练。
早在 2021 年的时候,微软搞大语言模型时就发现了这一点,并提了个微调的解决方案:LoRa。
具体什么意思呢?不用再去重新训练大模型了,直接打补丁,把单独训练好的模块拿来覆盖原先的模型参数,达到稳定产出的效果。
而 LoRa 这项技术于去年底,被应用到了 AI 绘图上,也就是说只要搭配微调好的 LoRa 模型,就可以轻松固定 AI 绘图时的人物形象。
这么搞,AI 绘图的自由度一下子就丰富起来了,举几个例子,以光头强图集训练好的 LoRa 模型:
就可以跑出光头强的效果,当然了,具体内容还要看你的描述语。
那用深田咏美老师的 LoRa 模型呢?
跑出的,自然也是深田老师的样子。
说真的,这样的模型有太多太多了,并不局限于写实的真人,如果你最近刷到了神似谁谁谁的 AI 二创,要么是自己训练跑出来的模型,要么是从 C 站上下载的 LoRa 模型。
而 ChilloutMix+LoRa 组合拳的结果,其实上一节你就已经看到了,有个韩风的 LoRa 模型,是最近出圈的主流。
该怎么描述呢?嗯,大家还是直接看图吧。
怪不得 AI 绘画能被用于诈骗,这看了谁不迷糊啊。。。
不过我盲猜,这个时候肯定会有小伙伴说,AI 绘画看手啊,这是 AI 的盲区。
确实,现阶段手对于 AI 来说仿佛是 bug 一般的存在,但未来,真不好说。
最近 AI 绘图圈又有了船新突破:ControlNet 模型。
ControlNet
同样是微调,但它能让 AI 输出更加精细,举个火爆推特的例子,这是一张普普通通的合照。
但在 ControlNet 的加持下,可以生成这样的效果:
发现亮点没有,人物的姿势并没有发生什么变化,这就很牛。
以往的 AI 模型,你想让它生成不同的姿势,必须要有具体的提示词,比如歪头、跑步等等。
但很多时候,AI 不一定能正确理解,因为模型本身是有惯性的,会更偏向于拿来训练的图集。
ControlNet 牛在什么地方,它能更精准的控制人物的整体结构和构图细节,其中就包括了手部姿势。
不要小看了这个插件,虽然它是引导,但其扩展性可能超乎我们的想象,最直观的是人物可以更好的呈现姿态:
更进一步,已经有基于这类引导,从 AI 绘制静态图,升级为 AI 绘制动画了,这是最原始的姿势:
这是生成后的结果:
诚然,现在看 AI 制片,还有各种问题,比如背景不一致,跳帧顿挫等等,但毫无疑问,比过去 AI 绘图的效果要好上太多太多。
结语
其实这一篇写下来,让我震惊的不是现在 AI 绘图的效果有多牛🍺,而是升级的太快了。
今天这三节的内容,其实都是基于 Stable diffusion 出现的,那 SD 是什么时候发布的呢?嗯,去年 8 月。
难免感慨,在短短半年的时间里,AI 绘图的发展实在是太快了,快到感觉和我以前把玩过的 AI 绘图不是一个东西。
总说 AI 会取代取代谁,但当你了解的越多,你会觉得一开始可能它降低了门槛,但从某个时候起,它又增加了门槛。
这篇纯粹是个吃瓜,不过等我整理好了资料,再来和大家分享玩法,等不及的小伙伴可以多去 B 站搜搜教程。
推荐一位 B 站的秋叶大佬,@秋叶aaaki。
地址:https://space.bilibili.com/12566101
除此之外,多去 C 站上逛逛,哪怕不学技术,咱去看看图也行。
地址:https://civitai.com
别的就不多说了,连割韭菜的都学新技术了,咱可别掉队了。
QQ 群:729224889 网站:wldxh.com